早期 AI 的興起與沒落(1950s - 1970s)
初期的成功
感知元(Perceptron)與多層感知器 (Multi-layer Perceptron, MLP)
AI 的早期發展,主要涵蓋了兩種截然不同的思維路徑:「感知元」(Perceptron)代表了受生物學啟發的連接主義(connectionism)方法,而「符號推理」(Symbolic Reasoning)則代表了基於邏輯和知識的傳統AI方法。
感知元(Perceptron)是由心理學家及電腦科學家法蘭克·羅森布拉特(Frank Rosenblatt)於1957年在康乃爾航空實驗室工作時所提出的,屬於人工神經網路(ANN)模型最早期的實作案例之一。感知元的誕生結合了唐納德·赫布(Donald Hebb)關於腦細胞互動的模型,以及亞瑟塞繆爾(Arthur Samuel)的機器學習研究成果。依據赫布提出的神經元模型所描述,當一個神經細胞反覆的激發另一個神經細胞時,第一個神經細胞的軸突會發展出與第二個細胞胞體接觸的突觸小結,或是增大已有的突觸小結。這樣的概念被轉化為人工神經網路的數學設計:當兩個神經元同時被激活時,它們之間的「權重」(weight)會加強;反之,若分別激活,則權重會減弱。
感知元可謂是第一個具備學習能力的類神經網路模型,它擁有輸入層和輸出層,能夠解決簡單的二元分類問題。這在當時引起了巨大的轟動,讓學術界對「會思考的機器」充滿了無限想像。
然而,這股樂觀情緒很快就受到了挑戰。1969年,學者們指出單層感知器有其根本性的限制,例如它無法解決非線性問題。馬文·明斯基(Marvin Minsky)和西摩爾·帕佩特(Seymour Papert)在1969年出版的《Perceptrons》一書中,詳細分析了簡單神經網路的局限性。為了解決這個問題,研究者加入了「隱藏層」,構成了多層感知器 (Multi-layer Perceptron, MLP)。理論上,只要隱藏層有足夠多的神經元,一個具備單一隱藏層的淺層網路就能夠擬合任何連續函數,這就是著名的通用逼近定理 (Universal Approximation Theorem)。
感知元在早期展現了巨大的潛力,並引起了廣泛的媒體關注。然而,它也面臨著「預期落差」的問題。例如,感知元只能辨識很少數的影像類別,而如人臉、指紋等等實際應用所需的影像型態都無法處理。這種限制,導致了人工神經網路研究的受挫和停滯,挹注的資金也隨之減少,這種低谷持續了數年,直到1990年代才出現復甦。而人工神經網路在研究預的式微,成為符號推理研究得以興盛的契機。
符號推理(Symbolic Reasoning)
除了模仿神經系統的認知元之外,在人工智慧領域的早期,有另一派 AI 研究的學者,強調以邏輯(logical)和知識(knowledge-based)為基礎的方法,來模擬人類的思考過程。這個研究取向的核心思想受到當時維也納學派(Wiener Kreis)的影響,認為人類的智慧可以被分解為一系列明確定義的符號和規則,並透過邏輯操作來處理這些符號。
約翰·麥卡錫(John McCarthy)是在達特矛斯工作坊中提出「人工智慧」一詞的關鍵人物之一。他在1959年的論文《Programs with Common Sense》中,介紹了 Advice Taker 的概念:麥卡錫設想了一個系統,它能夠理解指令、利用常識知識(common-sense knowledge)進行推理,並從經驗中學習;而其長期目標是開發能像人類一樣有效適應和學習的AI。Advice Taker 的概念也形塑了早期知識表徵(knowledge representation)和自動化推理(automated reasoning)的研究,從而為AI中的推理能力奠定了基礎。
1970年,特里·溫諾格拉德(Terry Winograd)創建了SHRDLU,這是一個開創性的自然語言理解程式。SHRDLU 能夠用簡單的英語與使用者互動,並在一個虛擬的積木世界中操作物體。這個專案是自然語言處理(Natural Language Processing, NLP)的早期成就,儘管其成功受限於特定且高度結構化的環境,但依然展示了電腦理解和回應複雜指令的潛力,反映出當時符號邏輯在有限領域內實現「理解」的努力。
總而言之,感知元與符號推理代表了AI早期探索的兩條主線:前者試圖從類比生物大腦的底層學習機制出發,而後者則追求透過邏輯和規則來編碼和運用知識。這兩條路徑在當時經歷了競爭與分歧,共同塑造了AI領域的早期面貌。
第一次 AI 寒冬:認知元的瓶頸與沒有達成的期待
「人工智慧」(AI)的發展歷史並非一帆風順,其中第一個低谷期就是發生在1970年代的第一次AI寒冬(AI Winter)。這個時期主要由於早期的過度樂觀預期未能實現,導致研究資金與公眾興趣大幅減少。
如同上一節所述,在 AI 領域發展的早期,尤其是1950年代和1960年代,出現了許多開創性的研究成果,例如感知元(Perceptron)的發明,和自然語言處理程式 SHRDLU。這些成果激發了大眾對AI能力的極大熱情,同時也伴隨著過高的期望。
然而,到了1970年代,現實與這些誇大的預期產生了巨大落差。
1970年,馬文·明斯基曾預言 AI 將在三到八年內達到普通人類的通用智慧。然而,這項大膽的預測過於樂觀,最終未能實現,進一步加劇了公眾和資助機構的失望。這種對AI領域「週期性炒作」的認識也逐漸形成,即樂觀期待暴漲之後,當技術未能滿足投資者和公眾的期望時,隨之而來的是幻滅。
1973年,英國數學家詹姆斯·萊特希爾(James Lighthill)向英國科學研究委員會提交了一份關於AI研究進展的關鍵報告,他認為該領域沒有產生重大的突破,而在報告結論中指出,相對於大規模的資源投入,AI的研究未能兌現其早期承諾。
這份報告導致英國政府大幅削減了對AI研究的資助,而這次事件被認為是第一次AI寒冬的開始,隨著美國國防高等研究計劃署(Defense Advanced Research Projects Agency, DARPA)在1974年決定削減對人工智慧的學術研究,各國政府也相繼開始削減對AI研究的投資。
總之,第一次AI寒冬是AI領域發展中的一個重要轉折點,它揭示了早期人工神經網路逐漸失去了興趣,而這也導致了AI與機器學習之間的裂痕。並促使研究方向從連接主義(如感知元)轉向了更注重邏輯和知識表徵的符號AI方法。到了1980年,專家系統(Expert systems),一種典型的知識型AI系統,主導了整個AI領域,而統計學方法則暫時失寵。這次挫折也強調了在AI發展中,避免過度炒作和確立務實目標的重要性。
沒有留言:
張貼留言